#AI GPU
美國安全審查突襲,中國H200訂單全線凍結!
英國《金融時報》今日援引三位白宮及國會消息人士稱,美國國家安全委員會(NSC)於2月3日啟動新一輪對華AI晶片安全審查,已要求輝達暫停所有H200對華銷售申請,待審查結束後方可重啟批文流程。這意味著原本已獲“口頭放行”的50萬顆H200再次停擺,中國雲廠商春節前搶貨計畫被迫中斷。審查焦點在於“中國潛在用途”與CUDA生態技術外溢風險。NSC擔心,H200雖低於70 TFLOPS紅線,但可通過堆疊組成超算叢集,用於高超音速模擬與情報分析。國會助手透露,此次審查可能持續45-60天,且不排除將H200納入《國際武器貿易條例》(ITAR)管制清單。輝達凌晨回應,將“全面配合政府審查”,並暫停向中國客戶傳送任何新銷售要約。公司已通知阿里、字節等大客戶:已預付但未清關的訂單將暫緩發貨,可選擇退款(扣除物流與關稅成本)或轉口至第三國。現貨市場應聲跳漲:香港倉庫提貨價從4.2萬美元回彈至5萬美元,中間商開始囤貨待漲。中國國產GPU廠商連夜促銷:寒武紀MLU 300現貨價下調至0.95萬美元,並提供120天帳期;摩爾線程把S5000租金再降20%,諮詢量兩日增長3倍。業內普遍認為,若審查持續至4月,中國雲廠商將被迫擴大中國國產卡採購,2026年中國國產AI晶片市佔率有望從18%躍升至35%。對於仍在擴建的中國國產GPU、HBM與封裝產業鏈而言,美國再次“關門”意味著9個月替代窗口正式開啟。 (晶片行業)
小摩最新預判:NAND周期更長更穩,eSSD成AI時代新主角
在全球資本市場緊盯 GPU 和高頻寬儲存器(HBM)的同時,NAND 快快閃記憶體儲器正悄然崛起,成為 AI 時代不可或缺的基礎設施資產。摩根大通(JPM-US,簡稱小摩)亞太區科技團隊在近期發佈的研究報告《半導體:NAND——更長、更強的上升周期》中指出,NAND 已進入由 AI 推理全面驅動的全新超級周期,其影響力可能超過以往任何一輪由消費電子推動的周期。過去 20多年,NAND 市場一直受供需波動影響。技術進步降低了成本,但廠商擴產又容易導致價格崩盤。小摩分析顯示,NAND 市場年均潛在成長率過去多在 7%~12% 之間,但預計 2025~2027年,這一數字將躍升至 34%,呈現前所未有的“斷層式”增長。更重要的是,這次增長不是單純靠出貨量堆積,而是“量價齊升”。小摩預計,今年 NAND 混合均價將上漲 40%,到2027 年價格仍能維持高位,僅小幅回落 2%。為什麼AI 推理能成為 NAND 的轉折點?關鍵在於推理階段的特殊需求:訓練階段強調算力和頻寬,HBM 無可替代;推理階段需要即時處理使用者指令,高速調取模型參數,延遲和上下文處理能力至關重要。隨著模型上下文擴展,GPU 內建 HBM 容量已捉襟見肘,行業開始引入 KV Cache Offloading 技術,把部分中間資料解除安裝到外部儲存。這讓企業級SSD(eSSD)從傳統“資料倉儲”升級為 AI 架構中的“二級儲存”,需求迅速增長。2024 年 eSSD 出貨量同比下降86%,刷新自 2012 年以來的紀錄。未來,AI伺服器單機儲存容量預計將超過 70TB,是普通伺服器的兩倍以上。到明年,eSSD 有望佔全球 NAND 需求總量的 48%,超過智慧型手機的 30% 和PC 的 22%,成為第一大應用場景。同時,HDD供應緊張也助推 NAND 上位。Seagate 和 Western Digital 因前幾年市場低迷大幅削減資本支出,導致大容量 HDD 交貨周期延長至兩年以上。面對“有貨優先於低價”的 AI 資料中心規則,客戶紛紛轉向 NAND,尤其青睞性價比提升的 QLC(四層單元 NAND)。雖然SSD 單位成本仍是 HDD 的 6~8 倍,但在能效和空間利用上優勢明顯,適合高密度 AI 資料中心。目前,SSD在“業務關鍵型”儲存領域滲透率僅 19%,還有很大提升空間。小摩估算,SSD 滲透率每提升 1%,即可為NAND 市場帶來約 20 億美元新增收入。值得注意的是,面對強勁需求和價格上漲,NAND 廠商並未盲目擴產。未來三年,產業資本支出佔銷售額比例將降至 15%~16%,遠低於過去十年的30%~50%,2018 年甚至高達 68%。原因在於技術瓶頸:NAND 堆疊層數已突破 300~400 層,刻蝕製程和晶圓應力控制難度極大,混合鍵合技術雖能緩解,但裝置昂貴且良率受限。市場預計,今年全球 NAND 晶圓產量僅增長 3%,而位元需求增速高達 21%,供需缺口將貫穿全年,支撐價格持續上行。原廠動作方面:鎧俠(Kioxia):CBA 架構優勢明顯,BiCS 8 技術量產推動伺服器業務營收從 2023 年的 20% 提升至2027 年的 61%。SK 海力士(SK Hynix):憑藉 Solidigm 在 QLC 和 eSSD 超大容量市場的統治力,以及 HBM 與 QLC 雙線優勢,長期看穩健。三星電子:雖然 QLC 佈局稍慢,但大產能和 V9 QLC 加速量產,有望收復失地,股價短期具備補漲潛力。美光(Micron):推出 232 層 TLC 的 6500 ION 系列,以“性能接近 TLC、價格接近 QLC”的策略受益美國本土資料中心建設。雖然NAND 價格上漲過快,可能推高筆記本等終端 BOM 成本,壓縮品牌商利潤,消費者換機節奏或延緩。但小摩認為,這次由 AI 推理驅動的需求革命與供給剛性深度交織,構成真正的“超級周期”。NAND 已不再是 DRAM 的陪襯,而是 AI 體系中高速“熱資料”管理的基石。 (半導體脈)
《威剛領軍記憶體族群出關!法人點名四大動能AI超級循環正式啟動》記憶體族群過去三季上演一場驚心動魄的重生劇碼,從國際大廠減產保價、報價觸底反彈,再到 AI 浪潮帶動 HBM(高頻寬記憶體)供不應求,激勵威剛、十銓、南亞科、華邦電相關概念股狂飆列入「處置股」,隨著分盤交易限制解除,法人點名四大關鍵動能成為股價核心燃料。記憶體產業之所以能被看好,不僅是產業景氣反彈,而是超級循環(Super Cycle)週期,關鍵在於 AI 帶來的結構性改變,由四大新動能支撐未來 6 到 12 個月股價上攻的核心燃料,首先是 HBM 的排擠效應,因 NVIDIA 的 GPU 如 H100, Blackwell 系列極度依賴 HBM3e,甚至未來的 HBM4,HBM 不僅價格是傳統 DRAM 的數倍,更必須消耗大量的晶圓產能。記憶體三大原廠如 SK 海力士與三星將大部分的資本支出與先進產能都移轉去生產 HBM,導致傳統 DRAM 的 DDR4、DDR5 供給遭到排擠,而這對於台灣的中下游廠商而言,卻是一個天大的好消息,因為原廠不願意做標準型記憶體市場,供給將持續緊俏,而這種「產能排擠效應」保證標準型 DRAM 的價格在未來一年難以深跌,甚至有續漲空間。第二是 AI PC 與 AI 手機的「容量倍增」紅利,如果說 HBM 是雲端的戰爭,那麼「邊緣運算(Edge AI)」就是終端的戰場,微軟定義的 AI PC,以及能夠運行生成式 AI 的旗艦手機,對記憶體的需求強勁,而要在裝置端運行一個像樣的 LLM(大型語言模型),記憶體就是最大的瓶頸,以 PC 端來說,現在 AI PC 起步標準就是 16GB,未來主流將推向 32GB 甚至 64GB。第三是 DDR5 與 DDR4 的黃金交叉,由於市場目前正處於世代交替的關鍵期,隨著 Intel 與 AMD 新平台的滲透率提升,DDR5 正式成為主流,過去因為 DDR5 太貴,消費者買不下手,但如今 DDR5 與 DDR4 的價差已縮小至 15%~20% 的甜蜜點,這將加速世代交替,而 DDR5 的技術難度較高,因此平均銷售單價(ASP)與毛利率都優於 DDR4。第四是 NAND Flash 市場迎來轉機,過去 Flash 殺價競爭最為慘烈,但 AI 伺服器不僅需要運算,更需要極高速的資料吞吐,因此 QLC (Quad-Level Cell) 企業級 SSD 正在快速取代傳統硬碟(HDD)在資料中心的地位,而 AI 訓練資料庫動輒數 PB,對於高容量、高密度的 Enterprise SSD 需求大增。法人指出,記憶體產業的這波漲勢,始於減產帶來的供需修復,飆漲於資金的投機熱潮,但最終將支撐於 AI 帶來的實質需求,首選的是具備研發能力、能切入 AI 伺服器或高階電競市場的控制 IC 設計廠與高階模組廠,次選是擁有龐大低價庫存,且通路佈局全球化的通路龍頭。
瑞幸背後的晶片,藏不住了
瑞幸咖啡背後的晶片,藏不住了。當你走進瑞幸咖啡店,點一杯生椰拿鐵的所有過程,例如下單、出杯、核銷、取餐……這一切的背後其實都有一雙“眼睛”在盯著。在看什麼?它要即時識別訂單、判斷製作節奏、校驗物料狀態、監控裝置運行,還要把資料同步回總部,用於品控、調度和營運決策。這就是藏在瑞幸咖啡背後無數的邊緣側AI,它們有一個共性,那便是算力必須就近部署,響應必須足夠快,穩定性必須足夠強,成本還要可控。晶片,成了其中關鍵中的關鍵。就在今天,瑞幸背後晶片的廬山真面目終於浮出了水面——來自一家剛剛完成上市不久的中國國產通用GPU公司,天數智芯。前腳剛剛敲完鐘,時隔僅半個月時間,天數智芯便又一口氣發佈了四款邊端算力產品,彤央系列。而且不只是發佈的動作,像瑞幸已經在用的邊端算力,正是彤央。那麼這個系列的產品到底實力幾何,我們繼續往下看。一口氣發佈四款新品先來看名字。彤央之名,源自商周青銅器銘文,但在天數智芯的內部,彤央有著別樣的寓意:“彤”指向高能效計算能力,“央”則意味著在邊端場景中承擔核心算力樞紐的角色。換言之,這是一個為真實業務現場而生的算力系列。彤央系列的首發陣容,共包括四款產品:TY1000、TY1100,以及定位算力終端的TY1100_NX和TY1200。先看彤央TY1000。這是一個標準699Pin介面的模組,尺寸只有口袋大小,但在這個方寸之間,天數塞進了近200T的稠密算力。在實際測試中,無論是典型的CV任務,還是NLP推理,甚至是對參數規模達到32B的DeepSeek-R1模型進行推理,以及具身智能VLA模型及世界模型等場景,TY1000在多項指標上都展現出不弱於主流國際方案的表現。在天數智芯披露的測試資料中,TY1000在多類負載下的綜合效率,超過了輝達AGX Orin所對應的典型配置。雖然這並不意味著全面替代,但至少證明了一件事:在邊端通用推理這個維度,中國國產通用GPU已經具備了正面對比的能力。其次是彤央TY1100。這款產品在架構上進行了進一步升級,採用了12核ARM v9架構CPU,並在系統級算力供給上更加充沛。它面向的是對通用計算和AI推理都有較高要求的複雜場景,比如多感測器融合、邊緣資料預處理、即時決策等。如果說TY1000更偏向算力核心,那麼TY1100則更像是一塊完整的邊緣計算底座。接下來,是針對對視訊記憶體容量和性價比更加敏感使用者的TY1100_NX。更大的視訊記憶體配置,使其在多模型平行、長序列推理等場景中具備更高的穩定性,同時維持了即插即用的部署方式,降低了系統整合門檻。最後,便是彤央TY1200,則被天數智芯定義為算力終端。它的算力規格提升到了300 TOPS,更重要的是,它是面向終端形態的整體方案。這類產品的目標使用者,並不只是演算法工程師,還包括希望直接把AI能力裝進裝置的行業客戶。從產品組合上看,彤央系列並沒有走單點極致路線,而是刻意拉開了算力、形態和價格區間,覆蓋從算力模組到終端的不同部署需求。但天數智芯並沒有把重點只放在晶片的參數上。在生態層面,彤央系列在介面和形態上實現了與主流產品的Pin-to-Pin相容,大幅降低了客戶從既有方案遷移的成本。這一點,對於已經有成熟系統的工業和商業客戶來說,幾乎是“是否願意嘗試”的分水嶺。更重要的是,這些產品並不是為了發佈而發佈。在機器人領域,彤央與格藍若機器人合作進入企業實際應用場景;在工業側,比依電器等製造企業正在用其進行裝置智能化升級;在商業零售場景中,瑞幸咖啡只是其中一個典型案例;而在交通領域,彤央系列也已經參與到多個車路雲一體化試點中。當四個完全不同的行業場景,開始使用同一套通用GPU算力底座時,一個更大的問題隨之浮現:天數智芯真正想做的,究竟是什麼?天數智芯的“野心”也暴露了如果只看彤央系列,很容易理解為一家中國國產晶片公司想要率先補全雲邊端的業務版圖。但從其同樣於1月26日公開披露的架構路線圖來看,事情顯然沒有這麼簡單,在其業務大本營的雲端場景,天數有更野心勃勃的目標。天數智芯並不滿足於中國國產替代這個階段性目標。在多次公開場合中,它都明確提到,自己的長期目標是對標乃至超越輝達這樣的行業標竿。為此,天數智芯給出了一張明確到年份的架構路線圖。2025年天數智芯推出的天數天樞架構,超越輝達Hopper。據瞭解,這已經不是規劃,而是現實:該架構支援從高精度科學計算到AI精度計算,AI晶片在執行注意力機制相關計算時,算力的實際有效利用效率達到90%及以上。而測試資料顯示,天數天樞架構效率較當前行業平均水平提升60%,在DeepSeek V3場景平均比Hopper架構高約20%性能。到2026年,天數天璇架構,新增ixFP4精度支援,對標Blackwell;天數天璣架構,實現全場景AI與加速計算覆蓋,超越Blackwell。而在2027年,天數智芯規劃中的天權架構,則直接指向對Rubin架構的全面超越,重點融入更多精度支援與創新設計。支撐這條路線圖的背後,還有一整套底層技術能力。包括TPC Broadcast、Instruction Co-Exec、Dynamic Warp Scheduling在內的多項技術,構成了天數智芯在指令級平行、資源調度和算力利用率上的核心優勢。這些能力,決定了它是否真的具備在通用GPU賽道長期演進的可能性。那麼,天數智芯是否真的有這樣的實力?一個直觀的判斷方式,是看通用性。截至目前,天數智芯的通用GPU已經穩定運行400余種主流模型,並且強調Day 0適配能力;以DeepSeek為例,其在天數智芯平台上的適配和推理,已經成為客戶實際部署的一部分。第二個維度,是商業化落地。根據其公開披露的資料,天數智芯累計交付的晶片數量已經超過5.2萬片,服務客戶超過300家。在實際應用中,網際網路AI客服的算力成本被壓縮了一半,而單機性能翻倍;金融行業的研報生成效率提升了約70%;在高要求的叢集場景中,其千卡規模叢集已經實現了超過1000天的穩定運行。這些資料足夠耀眼,也足夠具體。尤其值得注意的是,天數智芯在招股書中,對客戶數量、量產發貨規模、卡級毛利等核心指標進行了相對完整的披露。這種攤開來講的方式,在當前的中國國產晶片行業中並不多見。也正是在這一點上,天數智芯與不少大廠自研晶片或專用NPU路線拉開了差距。它選擇了一條更難、也更慢的路——堅持通用GPU路線,從架構、指令集、編譯器到軟體棧進行全端自研。這意味著沒有盲區,也意味著每一步都必須自己趟過去。最後,回到瑞幸的那杯咖啡。當中國國產算力開始真正進入千行百業,進入門店、工廠、道路和裝置,晶片不再只是發佈會上的參數,已然是業務鏈條中不可或缺的一環。從這個角度看,此次發佈的意義,或許並不只在於發佈了四代架構圖,和四款邊端新品,而在於中國國產通用GPU,一邊抬頭,試圖超越行業標竿,並以更大的野心,嘗試面向無人區提出自己的路徑;一邊低頭,以一種更貼近現實的方式,不斷深入產業現場。而這,可能才是天數智芯真正想證明的事情。 (量子位)
英特爾CFO:公司正處於“手停口停”的極限狀態
1月23日,英特爾公司發佈2025年第四季度及全年財報。儘管在營收和每股收益上均超出華爾街預期,但公司對2026年第一季度的業績指引低於市場普遍預測,導致盤後股價一度重挫。介面新聞記者獲悉,英特爾2025年第四季度營收137億美元,同比下降4%;2025年全年營收529億美元,與去年持平。圖片來源:介面圖庫英特爾預計2026年第一季度營收將在117億至127億美元之間,預計第一季度每股收益為-0.21美元,非通用會計準則每股收益為0.00美元,即處於盈虧平衡水平。英特爾首席財務官David Zinsner表示,“儘管面臨全行業供應短缺的挑戰,公司第四季度的營收、毛利率和每股收益方面均超出預期。公司預計,可用供應量將在第一季度降至最低水平,隨後從第二季度起逐步改善。”在隨後的電話會上,David Zinsner表示,公司正處於“手停口停”(hand to mouth)的極限營運狀態。據其透露,進入2026年時,英特爾的緩衝庫存已經徹底耗盡,庫存水平已降至峰值的40%。更棘手的是,為了應對市場的強勁需求,英特爾在2025年Q3開始將晶圓向伺服器組合轉移,但由於伺服器晶片的生產周期較長,這批晶圓直到2026年Q1晚些時候才能產出,使得內部供應限制在第一季度將達到“最嚴重”的程度。這種產能錯配直接衝擊了英特爾的業績預期。David Zinsner指出,若非供應受限,公司第一季度的營收本應遠高於季節性水平。在產能吃緊的背景下,良率問題成為了關注的焦點。英特爾首席執行長陳立武透露,基於Intel 18A工藝的首批產品Core Ultra Series 3(代號Panther Lake)已開始交付,良率正在穩步提升,且符合內部計畫,“雖然良率符合內部計畫,但仍低於我想要的水平。”陳立武表示,加速良率提升將是2026年最重要的槓桿。他透露,目前每月良率提升幅度在7%至8%之間,但重點在於一致性和缺陷密度。除了生產端的挑戰,英特爾在AI時代的戰略定位也是投資者關注的另一重點。陳立武在電話會上糾正了市場對“AI時代CPU已死”的誤解,並明確表示“公司對CPU在AI時代不可或缺的作用信心堅定”。陳立武表示,AI基礎設施不僅僅是GPU的堆砌,推理模型、代理AI(Agentic AI)以及物理AI的興起,正在放大X86架構在編排和控制平面上的重要性。“AI工作負載的持續擴散和多樣化給傳統和新的硬體基礎設施帶來了巨大的產能限制,加強了CPU在AI時代日益增長和不可或缺的作用。”陳立武說。圖片來源:介面圖庫為了更直接地參與AI計算競爭,英特爾對其伺服器路線圖進行了調整。據陳立武透露,公司已將資源集中於16通道的Diamond Rapids處理器,並計畫加速引入具備超線程技術的Rapids系列產品。此外,英特爾正在與輝達緊密合作,建構一個與其NVLink技術完全整合的定製Xeon,為AI主機節點帶來一流的X86性能。與此同時,英特爾的定製ASIC業務已成長為新的增長極,2025年該業務增長超過50%,環比增長26%,並在Q4達到了超過10億美元的年化收入運行率,主要得益於AI基礎設施對專用網路晶片的強勁需求。在晶圓代工業務方面,英特爾正試圖通過技術節點的按期交付來重建市場信任。2025年Q4代工業務營運虧損擴大至25億美元,主要受18A早期爬坡成本拖累。儘管目前仍處於投入期,但陳立武在電話會上給出了時間表,外部客戶預計將在2026年下半年至2027年上半年做出實質性的產能承諾。目前,Intel 14A工藝的PDK 0.5版本已發佈,客戶正基於測試晶片評估良率,接觸“非常活躍”。分析師John Vinh在1月13日表示,英特爾18A良率提升下,“足以讓我們相信,它有望超越三星,成為業內可信的第二大晶圓代工供應商”。從行業視角來看,結構性分化加劇了英特爾當下面臨的挑戰。摩根士丹利分析師在電話會上表達了對英特爾在等待新產品周期時市場份額的擔憂。對此,David Zinsner表示,“所以我們在客戶端內部所做的是,我們專注於中高端,而不那麼專注於低端。”這也意味著,在供應受限下,英特爾將進行一些份額調整,優先滿足資料中心和高端客戶端需求,可能一定程度導致部分中低端市場份額的短期波動。針對2026年,David Zinsner預計,隨著下半年供應改善和Panther Lake成本結構的最佳化,毛利率將逐步修復,目標是首先重回40%的水平。公司計畫在2026年將營運支出控制在160億美元以內,並償還25億美元到期債務。 (介面新聞)
【達沃斯論壇】黃仁勳首秀:GPU一卡難求,何來AI泡沫?
作為AI堅定且樂觀的支持者,不同於達沃斯經濟論壇中許多對“AI導致失業”“AI存在泡沫”的聲音,黃仁勳用自己的例子,力主AI能夠增加就業,並切實有利於經濟發展的觀點。輝達CEO黃仁勳第一次亮相達沃斯經濟論壇,就受到了隆重而熱烈的歡迎。當地時間1月21日上午,他出現在了瑞士小鎮大會廳。據財新網報導,這一會場正是當日下午美國總統川普發表演講的地方,且入場觀眾必須分區落座,並禁止媒體用相機拍照。規格之高可見一斑。貝萊德董事長兼CEO、世界經濟論壇臨時聯合主席勞倫斯·芬克(Laurence D. Fink)主持了對談。芬克在開場白中給了黃仁勳諸多讚揚之語,稱黃仁勳是自己學習AI過程中的觀察對象和導師,並盛讚其領導力讓輝達自上市以來實現了30%到37%的驚人總回報復合年增長率,他是最能清晰理解、解讀人工智慧的人。黃仁勳名副其實。他繼而分享了自己的“五層蛋糕理論”,即,通過能源層-晶片層-雲基礎設施層-模型層-應用層的結構來理解AI產業。他還提到,在這一產業結構上,人類歷史上最大規模的基礎設施建設已經啟動,包括能源、晶片、資料中心等都在驚人地增長,而大模型則是萬眾焦點,更可喜的是,作為最終經濟收益發生的地方,應用層也變得更加出色。“去年是有史以來風險投資規模最大的年份之一,而大部分資金都流向了‘AI原生企業’,這些企業遍佈醫療保健、機器人、製造業、金融服務等全球所有主要行業。”黃仁勳稱。他還總結了自己眼中的2025年“三件大事”,除了其自身及輝達一貫關注的代理AI、物理AI的進展外,黃仁勳還提到開源模型的發展,讚許DeepSeek出現的重大意義。而作為AI最堅定、最樂觀的支持者之一,不同於達沃斯經濟論壇中許多對“AI導致失業”“AI存在泡沫”的警示聲音,黃仁勳用自己的例子,力主AI能夠增加就業,並切實有利於經濟發展的觀點。他提到,AI掀起的基建熱潮為管道工、電工、建築工等工人創造了大量工作崗位,並讓其工資幾乎翻倍增長,建設AI工廠的工人能獲得六位數薪水。此外,他還在微觀層面以醫院,尤其是放射科醫生和護士為例,論證稱人們都認為AI將取代這些崗位,但實際上,AI幫助他們完成研究掃描影像和病歷記錄等繁瑣工作、案頭工作,解放了他們的時間,讓他們更多接待、照料病人,從而提升了醫院本身的生產力和容納量,更多病人湧入醫院,醫院進而僱傭了更多醫生和護士。“思考AI對某項工作影響的簡單方法是,理解這份工作的目標和任務分別是什麼,”黃仁勳認為,明確了目標和任務,AI就能讓任務自動化,進而提升生產力,最終更好的達成目標,並有益於整體的發展和就業。有關近來甚囂塵上的“AI泡沫論”,輝達本身就是其“受害者”。該公司在市值觸頂後,即使業績節節高昇,仍因市場對泡沫的擔憂而遭到拋售。黃仁勳在對談中回擊稱,看看輝達的GPU有多難買,就知道是否存在泡沫了。他還透露,公司GPU的現貨價格正在上漲,除了當前的主力產品Blackwell系列外,甚至前兩代產品也在漲價。與對泡沫論的“不屑一顧”相對應,黃仁勳在對談中始終提示AI帶來的機遇是歷史性的,他號召無論發達國家還是新興國家,都應該認識到AI是一種必不可少的基礎設施,必須建構自己的AI,“利用你們的基礎自然資源,你們的語言和文化,發展你們的AI,持續改進它,讓你們的國家智能成為你們生態系統的一部分”。他看好歐洲雄厚的工業基礎和科學基礎,並認為可以憑此跳過美國更擅長的軟體階段,直接進入物理AI與機器人領域。他提示,“機器人技術對於歐洲國家來說,是一代人一次的機會”,並建議相關國家“認真考慮增加能源供應,以便能夠投資基礎設施層”。在對談的最後,黃仁勳再次強調,AI的機會非常巨大,同時也需要更多的基礎設施、更多的投資來建設這個未來。“每個人都必須參與進來,每個人都必須投入其中!”他呼籲道。以下為黃仁勳與芬克對談實錄,經鈦媒體編輯整理:勞倫斯·芬克:大家早上好。我非常榮幸地向大家介紹黃仁勳,他是我敬佩的人,是我一路學習科技和人工智慧過程中的觀察對象和老師。看他如何領導輝達,令人讚嘆。我通常不喜歡與人比較,但這次比較我很喜歡。自從輝達上市以來,那是在1999年,與貝萊德同年上市,自那時起,輝達為股東帶來的總回報復合年增長率約為30%到37%。想想看,如果每個養老基金在輝達IPO時就投資它,那將對每個人的退休儲蓄帶來多大的成功。與此同時,貝萊德也非常出色,總回報率達到21%。對於一家金融服務公司來說相當不錯,但與輝達相比,當然就遜色了。而這,恰恰極好地說明了黃仁勳的領導力以及輝達的市場定位。同時,這也是關於世界對未來信念的一個重要聲明。所以,恭喜你取得的成就。我知道我們未來還有多年的旅程要走。黃仁勳:謝謝。非常感謝。我唯一的遺憾是在IPO之後,我想給父母買點好東西。於是我在公司估值3億美元時賣了一些輝達的股票,當時公司估值就是3億美元。然後我給他們買了一輛梅賽德斯S級轎車,那是當時世界上最貴的車。勞倫斯·芬克:他們現在還留著那輛車嗎?我想當然留著。黃仁勳:是的,他們還留著。勞倫斯·芬克:現在讓我們進入正題。首先我想介紹下關於人工智慧的辯論,焦點在於它將如何改變世界和當前全球經濟。我想談談人工智慧如何為全球經濟做出貢獻,如何日益成為一種基礎性技術,讓在座的每個人都能利用它來提升我們的生活、提升世界上每個人的生活。我們需要討論它將如何重塑幾乎所有其他領域的生產力、勞動力、基礎設施。但更重要的是,它將如何重塑世界,以及如何讓世界上更多的地區受益。我們如何確保全球經濟得到拓寬,而非縮小。關於人工智慧是什麼,我想不出還有誰比你對此有更清晰的見解,因為許多主要的超大規模雲端運算公司都在使用輝達的產品。所以,再次感謝你,這是你第一次來到達沃斯世界經濟論壇,我知道你的日程非常繁忙,還是非常感謝你抽出時間。黃仁勳:謝謝。勞倫斯·芬克:那麼讓我們直接開始。你為什麼相信人工智慧有潛力成為經濟增長重要的推動力?是什麼使得當下這一刻、這項技術不同於過去的技術周期?黃仁勳:首先,當你想到人工智慧,並以各種不同方式與它互動時,包括使用ChatGPT、Gemini,或者Anthropic的Claude,以及它能做的神奇事情時,就會幫助我們回溯到計算棧根本性變化的第一性原理。這是一次平台轉型,就像向個人電腦的平台轉型一樣。平台是應用程式建構於其上的東西,我們在新型電腦上開發出了新的應用程式,我們走過了網際網路的平台轉型、移動雲端運算的平台轉型。在每一次這樣的平台轉型中,計算棧都被重塑,新的應用被創造出來。從這個意義上說,這是一次新的平台轉型。如果你認識到人工智慧能做那些你以前從未能做的事情,它就真的很容易理解。過去的軟體本質上是預錄製的。人類會輸入並描述演算法或指令,讓電腦執行。它能夠處理結構化資訊,意思是需要輸入姓名、地址、帳號、年齡、住址等。你建立這些結構化的表格,然後軟體從中檢索資訊。我們稱之為SQL查詢。SQL是全世界有史以來最重要的資料庫引擎。過去幾乎所有東西都運行在SQL上。現在我們擁有了一台能夠理解非結構化資訊的電腦,意思是它能看懂一張圖片並理解它。它能閱讀文字並理解——這些都是完全非結構化的。而現在,它能聆聽聲音並理解它,理解其含義,理解其結構,並推理出該對此做什麼。因此,我們首次擁有了一台並非預先錄製,而是即時處理的電腦。這意味著它能夠獲取環境資訊、上下文資訊以及你提供的任何資訊的情境,推理出這些資訊的含義,並推理出你的意圖——而你的意圖可以用非常非結構化的方式描述。我們正是這樣做的。你想怎麼描述就怎麼描述。我們稱之為提示詞,但你可以按你喜歡的方式描述。只要它能理解你的意圖,它就能為你執行一項任務。那麼,人工智慧是什麼?當你想到人工智慧時,你想到的是AI模型。但從產業角度看,理解這一點非常重要:人工智慧上本質上是“五層蛋糕”。最底層是能源AI。因為它是即時處理的,並且即時生成智能,它需要能源來實現,所以能源是第一層。第二層是我所在的層,晶片和計算基礎設施。再其上一層是雲基礎設施、雲服務。再上一層是AI模型。這是大多數人認為的人工智慧所在。但別忘了,為了讓這些模型得以存在,你必須擁有其下的所有層。但最重要的一層,也是正在發生的一層,其上的那一層——我們最終需要它成功的那一層——就是應用層。所以這個應用層可能在金融服務領域,可能在醫療保健領域,可能在製造業領域,這是經濟收益發生的地方。但重要的是,由於這個計算平台需要其下的所有層,都已經啟動,並且是人類歷史上最大規模的基礎設施建設。我們現在已經投入了數千億美元。這是合理的,因為所有這些情境資訊都需要被處理,以便模型能夠生成必要的智能,來驅動最終位於頂層的應用程式。所以,當你回溯並逐層推理時,你會發現能源領域正在經歷非凡的增長,晶片領域也是如此——台積電剛剛宣佈將建造20座新的晶片工廠。富士康與我們以及緯創、廣達合作,正在建設30座新的電腦製造廠,這些裝置將進入那些AI工廠。所以,晶片工廠、電腦工廠和AI工廠正在全球各地建設。還有儲存領域,對吧?美光已開始在美國投資2000億美元。SK海力士表現非常出色。三星表現非常出色。你可以看到整個晶片層如今都在驚人地增長。當然,我們現在非常關注模型層,但令人興奮的是,其上的應用層也確實做得非常出色。現在有一個指標是風險投資的去向。去年是有史以來風險投資規模最大的年份之一。去年,大部分資金流向了所謂的“AI原生企業”。這些企業遍佈醫療保健、機器人、製造業、金融服務等全球所有主要行業。你會看到巨額投資湧入這些AI原生企業,而只要模型足夠好,應用就完全可以建構於其上。勞倫斯·芬克:那麼讓我們再深入一點。顯然,我相信每個人都使用自己的聊天機器人來獲取資訊。但你談到AI的普及將是關鍵。讓我們進一步探討它在物理世界普及的相關前景。你提到了醫療保健是一個很好的例子。但你在交通或科學等領域是否也看到了一些變革性機遇呢?黃仁勳:我想說,去年在AI技術層、模型層發生了三件大事。第一是模型本身起初令人好奇和有趣,但產生了大量幻覺。而去年,我們都可以合理地接受這些模型更加可靠了。它們可以進行研究。它們能夠推理那些可能未被訓練過的情境,將其分解為逐步的推理步驟,並制定計畫來解決和回答你的問題、進行研究或執行任務。所以去年我們看到語言模型演變為我們所謂的“代理型AI系統”。第二個重大突破是開源模型的突破:DeepSeek出現了。坦白說,當時很多人都相當擔心。DeepSeek對全球大多數行業、大多數公司來說都是一件大事,因為它是世界上第一個開放原始碼的推理模型。自那時起,一大批開源推理模型湧現出來。開源模型使得公司、行業、研究人員、教育工作者、大學、初創企業能夠利用這些開源模型來啟動項目,並創造適合其需求的、針對特定領域或專業化的東西。去年取得巨大進展的第三個領域是物理智能的概念,即不僅僅是理解語言,還能理解自然的物理AI。它可以是理解我們這裡物理世界的AI,理解蛋白質、化學物質、自然物理的AI,理解流體動力學、粒子物理、量子物理的AI。這些AI現在仍在學習所有這些不同的結構和不同的“語言”。蛋白質本質上是一種語言。所以,所有這些AI現在都取得了如此巨大的進展,以至於這些行業的工業公司,無論是製造業還是藥物發現領域,都在取得巨大進步。一個重要的標誌是我們與禮來公司的合作。他們認識到,AI在理解蛋白質結構和化學結構方面取得了如此非凡的進展,基本上能夠像我們與ChatGPT對話一樣與蛋白質互動和“交談”,我們將看到一些真正重大的突破。勞倫斯·芬克:所有這些突破都引發了關於人類的擔憂。你我對此有過多次交談,但我們需要告訴所有聽眾,人們非常擔心AI會取代工作崗位,而你一直持相反觀點。但顯然,正如你所說,AI的建設——歷史上最大規模的基礎設施建設——將會發生。黃仁勳:這會在能源領域創造就業,在晶片行業創造就業,在基礎設施層創造就業,在土地、電力、設施等方面創造就業。勞倫斯·芬克:那麼讓我們更詳細地探討一下。所以實際上你認為我們將面臨勞動力短缺。那麼,在你看來,AI和機器人是會僅僅改變人類工作的性質,還是會消除工作呢?黃仁勳:我們可以從幾個不同的角度來思考這個問題。首先,這是人類歷史上最大規模的基礎設施建設,將創造大量就業崗位。而且非常棒的是,這些就業與手工藝相關。我們將需要管道工、電工、建築工人、鋼鐵工人、網路技術員、安裝和配置裝置的人員……所有這些工作崗位,我們在美國已經看到這個領域出現了相當顯著的熱潮。工資上漲了,幾乎翻了一番。所以,我們談論的是建造晶片工廠、電腦工廠或AI工廠的人們能獲得六位數的薪水,而且我們在這方面有很大的短缺。我非常高興看到這麼多國家的許多人真正認識到這個重要領域。你知道嗎,每個人都應該能夠過上美好的生活,你不需要擁有電腦科學博士學位也能做到。所以我很高興看到這一點。第二點要認識到,我們常常會理論化地討論任務的自動化等等,以及這對工作崗位意味著什麼。我想舉一些真實的例子,這些是實際發生的情況。記得十年前,第一個被認為將被淘汰的職業是放射科醫生。原因是,第一個在能力上超越人類的AI是電腦視覺,而電腦視覺最大的應用之一就是放射科醫生研究掃描影像。十年後的今天,確實AI現在已經完全滲透並擴散到放射學的每一個環節。確實,放射科醫生使用AI來研究掃描影像。現在,它的影響是100%的,而且是完全真實的。然而,並不令人意外——如果你從第一性原理出發思考,就不會感到意外——放射科醫生的數量增加了。勞倫斯·芬克:這是因為缺乏信任嗎?還是因為人類與AI結果互動的需求?黃仁勳:完全正確。原因在於,放射科醫生的工作,其目的是為患者診斷疾病。而工作的任務包括研究掃描影像。現在他們能夠無限快地研究掃描影像,這使他們有更多時間與患者在一起診斷疾病,與患者互動,與其他臨床醫生互動。自然而然地,醫院能夠接待的患者數量增加了,隨後醫院的收入增加了,所以他們僱傭了更多的放射科醫生。同樣的情況也發生在護士身上。美國短缺約500萬名護士,現在可以通過使用AI來處理患者就診的記錄和轉錄工作,而護士們此前一半的時間都花在記錄上。一家名為Abridge的公司是我們的合作夥伴,他們做得非常出色。結果,護士們可以有更多時間探望病人,給予人文關懷。因為現在可以接待更多患者,我們不再受護士數量的瓶頸限制,更多患者可以更快地進入醫院。因此,醫院營運得更好,就會僱傭更多的護士。AI提高了他們的生產率,也增加了僱員數量。我想這是兩個完美的例子。現在,思考AI對某項工作影響的簡單方法是:理解這份工作的目的和任務分別是什麼。也許,如果你只把鏡頭對準我們倆,觀察我們,你可能會認為我們倆是打字員,因為我所有時間都在打字。所以如果AI能自動化這麼多預測性工作並幫助我們打字,那我們就會失業。但顯然那不是我們的目的。所以問題是:你工作的目的是什麼?對於放射科醫生和護士來說,目的是照顧人,而這個目的因為任務被自動化而得到增強,使他們更具生產力。因此,當你推理每個人的目的與任務,我認為這是一個有用的框架。勞倫斯·芬克:讓我們把話題擴展到發達經濟體之外。幫我理解一下,AI如何在全球範圍內傳播並幫助世界?我上周末讀了一篇關於Anthropic的文章,文章基本上說,最近AI的使用主要由受過教育的社會階層主導,甚至看到每個社會中受過教育的群體使用率遠高於其他群體。那麼我們如何確保AI成為一種變革性技術,就像Wi-Fi和5G對於新興世界那樣?我們如何拓寬全球經濟?第二,回到整個關於機器人和AI的工作崗位情況,那裡會有一些替代發生,並且替代已經在美國發生。我們可能在創造更多的管道工和電工,但我們可能不再需要那麼多金融機構的分析師、律師,因為AI能更快地積累資料。那麼,讓我們先關注一下新興世界或者開發中國家,你如何看待這種回報?黃仁勳:首先,AI是基礎設施。我無法想像世界上有那個國家不需要將AI作為其基礎設施的一部分,因為每個國家都有電力、道路,你也應該有AI作為基礎設施的一部分。當然,你總是可以進口AI,但如今訓練這些AI模型並不那麼困難。而且因為有這麼多開源模型,憑藉你們當地的專業知識,你們應該能夠建立對自己國家有益的模型。所以我真的相信,每個國家都應該參與建設AI基礎設施,建構自己的AI。利用你們的基礎自然資源,即你們的語言和文化,發展你們的AI,持續改進它,讓你們的國家智能成為你們生態系統的一部分。第二點,大家應該記住,AI非常易於使用。它是有史以來最容易使用的軟體。這就是它增長最快、採用最迅速的原因。僅僅在兩三年內,使用者量就接近10億了。我想說,首先Claude非常了不起。Anthropic在開發Claude方面取得了巨大進步和飛躍。我們公司在各處都在使用它。Claude的程式設計能力、推理能力,以及其他能力,都非常不可思議。任何軟體公司都應該使用它。另一方面,ChatGPT可能是有史以來最成功的ToC的AI,比如它的易用性和親和力,我也認為每個人都應該參與進來,無論是開發中國家的人,還是學生。現在很清楚的是,學習如何使用AI、如何指導AI、如何提示AI、如何管理AI、如何為AI設定護欄以及評估AI,這些技能與我們領導、管理人員沒有什麼不同。所以未來,除了生物性的、碳基的“AI”,我們還將擁有數字版本的AI、矽基版本的AI,我們必須管理它們。它們將成為我們數字勞動力的一部分。因此,我建議開發中國家:建設你們的基礎設施,參與AI,並認識到AI很可能彌合技術鴻溝,因為它如此易於使用、如此豐富、如此易於獲取。所以,你知道,我對AI提升新興國家潛力的前景實際上是相當樂觀的。對於那些沒有電腦科學學位的人來說,你們現在都可以成為程式設計師了。過去,我們必須學習如何程式設計。現在,你可以通過詢問電腦“我該如何程式設計你?”來完成程式設計。如果你不知道如何使用AI,只需走到AI面前說:“我不知道如何使用AI。我該怎麼使用AI?”然後它會向你解釋。你說:“我想寫一個程序來建立我自己的網站。我該怎麼做?”它會問你一系列關於你想建構什麼樣網站的問題,然後為你編寫程式碼。它就是那麼容易使用。這當然就是AI令人難以置信的、令人興奮的力量。勞倫斯·芬克:還有兩個簡短的問題,我們現在身處歐洲。我們剛才談論了很多公司,提到了很多美國公司和亞洲公司。跟我們談談AI與歐洲未來的成功將如何交匯,以及輝達將在歐洲扮演什麼角色?黃仁勳:我很幸運。輝達有幸與世界各地的AI公司合作。因為我們處於基礎設施底層,我們為所有AI提供動力,無論是語言AI、生物學AI、物理學AI,還是與製造業和機器人相關的世界模型AI。對於歐洲來說,真正令人興奮的是,歐洲的工業基礎非常強大。這是機會,可以跳過軟體時代,直接進入新階段。美國確實引領了軟體時代。但AI是一種不需要編寫軟體的軟體。你不編寫AI,你教導AI。所以現在就及早參與,這樣你們就可以將你們的工業能力、製造能力與人工智慧融合起來。這將把你們帶入物理AI或機器人的世界。機器人技術對於歐洲國家來說,是一代人一次的機會。無論是德國、法國,還是我訪問過的所有國家,工業基礎都非常強大。另外要認識到的是,歐洲的深厚科學基礎仍然非常強大,而現在可以受益於應用人工智慧來加速你們的發現。所以我認為,相當確定的是,你們必須認真考慮增加能源供應,以便能夠投資基礎設施層,從而在歐洲擁有一個真正豐富的人工智慧生態系統。勞倫斯·芬克:我聽到很多觀點稱,我們遠未到AI泡沫的階段。問題反而是,我們的投資足夠嗎?讓我們換個角度,因為有很多人在談論泡沫,但是否真正的問題是我們是否投入了足夠的資金來拓寬全球經濟所需做的事情?黃仁勳:檢驗AI泡沫的一個好方法是認識到,輝達的GPU現在已有數百萬台部署在各個雲服務商的雲端,我們在每個雲端都被使用。如果你現在想租用輝達的GPU,那真是太困難了。GPU租賃的現貨價格正在上漲,不僅是最新一代的,連前兩代的GPU租賃價格也在上漲。原因在於,正在建立的AI公司數量眾多,企業正在將其研發預算轉向AI。禮來就是一個很好的例子。三年前,他們幾乎所有的研發預算可能都花在實體實驗室上。注意他們投資的大型AI超級電腦、大型AI實驗室。未來,他們的研發預算將越來越多地轉向AI。所以,所謂的AI泡沫之所以出現,是因為投資規模巨大。而投資巨大,是因為我們必須為所有上層AI建構必要的基礎設施。因此,我認為機會確實非常巨大,每個人都必須參與進來,每個人都必須投入其中。我們需要更多能源。我想我們都認識到了這一點。我們需要更多的土地、電力和設施。我們需要更多具有技能的技術工人。事實上,歐洲在這方面的勞動力人口非常強大。是的,在很多方面,美國在過去二三十年裡失去了這部分,但它在歐洲仍然非常強大。這是一個利用這一優勢的非凡機遇。所以,我想說,我們都看到了投資機會和投資規模正在上升。正如我早些時候提到的,2025年是有史以來風險投資規模最大的一年,全球超過1000億美元,其中大部分流向了AI原生企業。這些AI公司基本上正在建構其上的應用層,它們將需要基礎設施,需要我們的投資,來共同建設這個未來。勞倫斯·芬克:我實際上相信,這將成為全球養老基金的一個絕佳投資機會,參與其中,與這個AI世界共同成長。這是我傳遞給各位政治領導人的一個資訊:我們需要確保普通養老金領取者、普通儲蓄者能夠分享這種增長。如果他們只是作為旁觀者,他們將會感到被排除在外。黃仁勳:我也希望他們投資於輝達。基礎設施是一項偉大的投資。這是人類歷史上規模最大的基礎設施建設。是的,參與進來吧。勞倫斯·芬克:時間到了。希望現場的每一位聽眾,以及網路直播的每一位觀眾,都能看到黃仁勳作為領導者的力量,不僅僅是技術和AI領域的領導者,更是商業領域的領導者,同時也是一位充滿心與靈魂的領導者,這在當下尤為重要,需要這種發自內心和靈魂的領導力。謝謝大家。謝謝。 (鈦媒體)
美國AI獨角獸CEO:全面封殺對華AI晶片出口!
美國AI獨角獸Anthropic首席執行長Dario Amodei 1月20日在接受彭博電視專訪時,公開呼籲華盛頓“徹底收緊”對華AI晶片出口,稱向中國出售先進GPU“等於把槍口對準自己”,任何放鬆管制都是“戰略瘋狂”。此番言論正值美國政界就H200對華年度配額展開激辯,為國會新一輪制裁提案再添火藥。Amodei在訪談中明確表示,先進AI晶片應被視為“戰略武器”,“每一顆H200都是潛在的導彈制導大腦”。他認為,中國一旦獲得足夠算力,可在數月內復現並超越美國大模型水平,“我們是在用CUDA生態綁住自己的手腳,然後把鑰匙交給對手”。Anthropic由OpenAI前核心成員創立,其Claude系列模型被視為GPT最強競品。公司2025年B輪融資40億美元,背後金主包括Google和Amazon。Amodei此次放話,被認為是代表美國AI獨角獸陣營對“矽谷-華盛頓”遊說戰的最新表態。他提出三點政策訴求:立即凍結已發放的50萬顆H200年度配額;將“可重構AI加速卡”全部納入《國際武器貿易條例》(ITAR)清單;對任何低於70 TFLOPS但可通過堆疊實現超算的晶片實行“零出口”。眾議院中國特別委員會已計畫2月召開“AI晶片與國家安全”聽證會,Amodei被列為首輪證人。委員會主席在新聞稿中引用其言論,稱“每一顆流入中國的GPU都可能用於高超音速武器模擬”,並透露正在起草《AI硬體零出口法案》,擬對所有非盟友國家實行“先證明非軍用,再談出口”原則。受言論刺激,H200中國現貨價一夜跳漲8%至4.5萬美元;香港倉庫提貨價突破5萬美元。國產GPU廠商連夜推促銷:寒武紀MLU 300宣佈現貨價1.1萬美元、90天帳期;摩爾線程推出“關稅+禁令雙保險”S5000,租金再降15%。管道反饋,14日單日國產卡諮詢量增長4倍。輝達政府事務部迅速回應,稱“過度管制將損害美國技術領導力”,並警告若完全封殺對華銷售,公司年收入可能減少180億美元,相當於年度研發預算的70%。矽谷遊說團體TechNet也發佈報告,指出“零出口”將把中國推向自研快車道,“6個月內國產替代率將從30%跳到60%”。Anthropic的強硬立場反映出美國AI獨角獸對“算力不對稱”的焦慮:當中國能在6個月內復現SOTA模型,任何放鬆晶片出口都可能被快速抹平差距。對於中國而言,外部壓力愈大,國產GPU、HBM與EDA的替代窗口愈寬。2026年,圍繞70 TFLOPS紅線、ITAR清單與“零出口”的立法博弈,將決定全球AI硬體是走向全面脫鉤還是維持有限合作。 (晶片行業)
頻寬戰爭前夜,“中國版Groq”浮出水面
在AI算力賽道,輝達憑藉Hopper、Blackwell、Rubin等架構GPU,早已在AI訓練領域建立起了難以撼動的技術壁壘與行業地位。但隨著即時AI場景需求爆發,傳統GPU在面對低批處理、高頻互動推理任務中的延遲短板愈發凸顯。為破解這一痛點,輝達重磅出擊,斥資200億美元收購Groq核心技術,搶跑AI推理市場。這一金額不僅創下輝達歷史最大手筆交易、刷新了推理晶片領域的估值紀錄,更鮮明地昭示著輝達從“算力霸主”向“推理之王”轉型的意志。緊隨這一動作,據技術博主AGF消息進一步披露,輝達計畫在2028年推出新一代Feynman架構GPU——採用台積電A16先進製程與SoIC 3D堆疊技術,核心目的正是為了在GPU內部深度整合Groq那套專為推理加速而生的LPU(語言處理單元),相當於給GPU加裝了一個專門處理語言類推理任務的專屬引擎,直指AI推理性能中長期存在的“頻寬牆”與“延遲瓶頸”。這些動作表明:AI行業的競爭正從單純的算力比拚,轉向對單位面積頻寬的極致追求——這與輝達此前“大模型推理90%的延遲源於資料搬運,導致算力利用率常低於30%”的結論不謀而合。無獨有偶,AMD通過3D V-Cache持續驗證儲存靠近計算的效能邏輯;d-Matrix、SambaNova等明星AI推理晶片公司,更是聚焦流式執行與片上頻寬建構核心競爭力,用實際行動印證這一行業共識。頻寬戰爭打響,誰是“中國版Groq”?回看中國市場,AI浪潮推動下,國產大模型多點突破、強勢崛起,本土AI晶片企業集體爆發並密集衝擊IPO,資本熱度居高不下。然而,當輝達選擇通過Feynman架構來補齊推理短板時,就意味著誰能率先解決“頻寬牆”問題,誰就握住了下一輪周期的入場券。在這一背景下,國內賽道湧現出前瞻性佈局者。近日,半導體行業觀察注意到,一家源於北京大學物理學院的AI晶片公司——寒序科技(ICY Technology),宣佈完成數千萬元人民幣新一輪融資。這家企業以“超高頻寬推理晶片”為核心產品,被業內視為中國大陸少有的在技術路線層面正面對標Groq的前沿技術團隊。“中國版Groq”的名號,初見端倪。實際上,寒序科技的技術披露並非偶然,而是源於在內部保密原則下的長期的低調深耕。早在2024年9月與2025年11月,寒序科技就已聯合北京大學物理學院、電腦學院、積體電路學院,以及澳門大學模擬與混合訊號積體電路全國重點實驗室,先後承擔、主持兩項北京市科技計畫項目。他們前瞻性地鎖定0.1TB/mm²/s超大頻寬流式推理晶片研發,在省部級重大研發任務中,在北京市科學技術委員會的指導下,在任務書中全面對標Groq的技術路線與頻寬指標。這意味著,當Groq因LPU爆紅被視為“推理新範式”時,中國科研與產業團隊已在國內同步推進一條差異化的實現路徑。據瞭解,寒序科技採用“雙線佈局”建構核心競爭力:一方面,已發佈SpinPU-M系列磁機率計算晶片,推出1024位元全連接伊辛退火求解硬體,覆蓋組合最佳化與量子啟髮式計算市場;另一方面,本輪融資的核心看點——SpinPU-E磁邏輯計算晶片系列,直指大模型推理解碼(Decode)階段加速,以片上MRAM(磁性隨機儲存器)為核心介質,建構超高頻寬磁性流式處理架構。能看到,寒序科技並未跟隨主流GPU的片外DRAM/HBM或Groq的存算一體SRAM方案,而是選擇了片上MRAM這條更底層、更物理本征、更具長期想像力的技術路線。眾所周知,當前主流的AI計算範式面臨多重困境:採用HBM的GPU方案,頻寬受限於昂貴的2.5D/3D先進封裝,核心儲存器件HBM產能被海外巨頭壟斷且面臨出口管制;採用SRAM的Groq方案,則因SRAM單元面積大、成本高,單晶片儲存容量有限,難以規模部署千億參數大模型。面對這些行業普遍的困局,寒序科技源自北大物理學院,從凝聚態物理的角度,從第一性原理進行思考,利用本征功耗更低、速度更快的“電子自旋翻轉”,代替“電子電荷運動”來進行儲存與計算。而這種底層邏輯的革新,正是源於MRAM技術帶來的核心優勢。它兼具SRAM的高速、DRAM的高密度與快閃記憶體的非易失性等優勢,其直立結構的磁性隧道結,通過垂直微型化和CMOS工藝相容性,能夠大幅降低對複雜封裝的依賴,在成本、功耗和可靠性上具有顯著優勢。與SRAM方案相比,MRAM技術的差異化優勢十分突出:儲存密度領先:主流AI推理架構深度依賴片上SRAM以換取高速,但SRAM正面臨嚴峻的微縮困境。傳統SRAM每個儲存單元由6個電晶體(6T)組成,儲存密度低,儲存容量小,儲存典型的DeepSeek-R1-671B大語言模型可能需要數千片Groq LPU晶片,且5nm以下節點尺寸幾乎停止縮減;而MRAM天然採用1T1M(1個電晶體+1個磁隧道結)結構,單個MTJ可以執行SRAM 6個電晶體的儲存功能,同等晶片面積和工藝節點下,儲存密度是SRAM的5-6倍。工藝成本更低:MRAM的物理結構優勢,使其在國產工藝製程即便落後一代的情況下,性能指標也能對標甚至超越採用先進製程的SRAM方案。這意味著MRAM無需追逐極先進製程,大幅降低流片與量產成本(單片成本可降至原來的十分之一以下),同時保障了供應鏈自主可控。非易失性與高能效:MRAM斷電後資料不丟失,無需像SRAM/DRAM那樣持續刷新,待機功耗接近零,具備快速啟動、低待機功耗、高耐用性等優勢;同時避免了SRAM的漏電流損耗,為邊緣端和雲端的大規模部署提供極佳能效優勢,大幅降低運行成本。通過自研的磁性存算一體流式架構,寒序科技將MRAM的器件優勢轉化為晶片級系統性能。據悉,SpinPU-E晶片架構的目標是將訪存頻寬密度提升至0.1-0.3TB/mm²·s,不僅能比肩以“快”成名的Groq LPU(0.11 TB/mm²·s),更是輝達H100(0.002-0.003 TB/mm²·s)的數十倍。據瞭解,輝達GPU的架構最初面向大規模訓練與圖形渲染場景設計,強調峰值算力與吞吐能力,並通過多級快取、動態調度和共享儲存來適配高度平行但相對粗粒度的工作負載。在大模型推理的Decode階段,GPU性能瓶頸主要來自對外部儲存(HBM)和複雜記憶體層級的高度依賴。該計算過程呈現出強序列性、小批次和頻寬主導等特徵,與GPU設計初衷明顯錯配。在實際執行中,GPU仍需要通過多級快取和共享儲存來訪問,資料到達計算單元的時間並不固定,不同計算單元之間也需要反覆等待和協調。這使得訪存延遲和執行順序經常波動,矩陣加乘單元很難按照固定節拍持續運行,算力難以穩定發揮。而寒序科技採用確定性的“磁性流式處理(MSA)架構”,將大規模MRAM Banks緊鄰矩陣加乘單元部署,並圍繞推理資料流建構多級流水執行路徑,使權重和中間啟動在局部高頻寬範圍內按固定順序流動。通過在硬體層面同時約束儲存位置、訪存頻寬、通訊路徑與執行節拍,該架構在Decode階段顯著降低了延遲抖動與外部儲存訪問依賴,實現更高的頻寬與更快、更穩定的推理性能。值得關注的是,MSA架構並非簡單的存內計算概念,而是圍繞推理場景,對資料流組織、儲存-計算耦合方式以及執行節拍進行重新設計,在保證超高頻寬的同時,顯著降低對先進製程與複雜封裝的依賴。有業內人士指出,這一路線與NVIDIA在Feynman架構中所釋放的訊號高度一致:未來推理性能的競爭核心,不再是算力規模,而是單位面積頻寬與執行範式。走出北大實驗室的秘密武器——“天時地利人和”SpinPU-E展現出的性能優勢,並非偶然的技術選擇,而是核心團隊跨學科積澱、全鏈條技術把控與前瞻性路線佈局的成果。據報導,寒序科技是國內首個有能力跑通從物理、材料、器件到異質整合、晶片設計、演算法的交叉團隊,核心成員源自北京大學物理學院應用磁學中心——國內磁學研究的頂尖高地,擁有近70年的磁學積澱,核心成員橫跨凝聚態物理、電子科學、電腦技術、人工智慧等多領域:首席執行長朱欣岳兼具凝聚態物理、人工智慧演算法與積體電路的交叉背景,曾主導多模態AI演算法開發、多顆高性能專用晶片研發,帶領團隊完成四輪市場化財務融資與產品化;首席科學家羅昭初作為MIT TR35入選者,曾於清華大學、蘇黎世聯邦理工學院完成自旋電子學、磁性計算的科研工作,深耕微納磁電子學與磁儲存/計算,擁有深厚的學術積累與Nature、Science正刊成果,團隊歷經多次流片驗證,既保有前沿技術探索的銳氣,又具備工程化落地的能力。相比純粹的架構創新,寒序科技這種“材料-器件-晶片-系統-演算法”的全鏈條視野和全端攻關能力,讓MRAM技術得以從底層原理到上層系統實現協同最佳化與突破,而非僅停留在邏輯和架構層面的修補。這也是寒序科技被視為精準踩中2030年行業時間軸的前瞻性下注的核心原因。這種對行業趨勢的精準踩點,不僅體現在技術路線的選擇上,或許也蘊含在對商業化路徑的思考中。回溯Groq的成長軌跡來看,其業務從核心的GroqChip LPU推理晶片起步,逐步延伸至加速卡、伺服器系統、資料中心叢集,最終建構了雲服務平台,形成了“晶片-硬體-系統-雲服務”的全端佈局。沿著Groq被驗證的商業邏輯向前推演,寒序科技大概也會沿著相似的路徑開展自己的業務版圖——以SpinPU-E磁邏輯晶片為起點,向上建構硬體產品矩陣,最終通過雲服務觸達更廣泛市場的全端路徑,以建構更強的技術壁壘和產業競爭力。更關鍵的是,這條路徑並非簡單的模式復刻,而是基於本土產業現狀的創新破局——當行業苦於HBM成本高企、SRAM微縮放緩之時,寒序科技沒有陷入“算力堆砌”的內卷,而是利用MRAM磁性計算新範式,在中國本土成熟供應鏈基礎上,築起了一座對標全球頂尖推理性能的頻寬高地。這種從底層物理原理出發的差異化競爭策略,或許正是其作為“中國版Groq”浮出水面的核心底氣。MRAM開啟新型儲存“黃金時代”破局“頻寬封鎖”寒序科技對MRAM技術的探索並非孤例,背後是一場從“備選”走向“必選”的新型儲存技術浪潮。尤其是在全球半導體產業的演進與地緣政治激盪背景下,為MRAM在內的新型儲存鋪就了一條通往AI算力核心舞台的“黃金賽道”。2024年12月,美國商務部工業與安全域(BIS)發佈新出口管制規則,明確限制向中國出口記憶體頻寬密度超過2GB/s/mm²的尖端儲存器。這一封鎖點,直指AI推理晶片的命門——頻寬。目前,輝達、AMD等巨頭極度依賴HBM,而HBM產能幾乎被SK海力士、三星、美光等海外儲存原廠壟斷,且受限於複雜的2.5D/3D先進封裝。同時,Groq所代表的SRAM路線價格極高(Groq 230MB片上SRAM記憶體的單卡售價2萬美金),在先進製程微縮上也已近極限。在此背景下,MRAM路線的戰略價值陡增。它不僅在物理特性上具備跨代超越SRAM的潛力,更重要的是,它能基於國產28nm/22nm等成熟製程實現超高頻寬,徹底規避對尖端工藝和海外HBM供應鏈的依賴。這不僅是技術路線的“備選”,更是中國半導體產業在算力領域破除卡脖子困境、實現差異化突圍的“必選”。有業內專家表示,這一戰略意義迫切需要國家有關部門給予更高重視與政策傾斜。MRAM不僅是單一儲存技術的革新,更能帶動磁性材料、磁電子器件、存算一體架構等全產業鏈突破,有望徹底改變國內在HBM領域的落後局面和SRAM對先進製程的依賴,為AI算力產業打造自主可控的“第二曲線”。全球共振,商業化拐點已至?當前,產業界正在用實際行動表明,MRAM不再只是實驗室裡的美好構想,而是憑藉獨特優勢正成為全球半導體產業佈局的重點。其中,晶圓代工龍頭與晶片大廠均在積極佈局:台積電、三星、英特爾、SK海力士、IMEC等憑藉其先進的技術研發和大規模生產製造能力,已明確將嵌入式MRAM推進到22nm、16nm甚至更先進節點,持續提升MRAM的性能和整合度。恩智浦與台積電合作推出16nm FinFET車規級eMRAM,應用於其S32系列高端MCU,實現寫入速度比傳統快閃記憶體快10-15倍、耐久性超百萬次;瑞薩電子也推出了基於22nm工藝的STT-MRAM技術,瞄準汽車MCU市場;GlobalFoundries、Everspin在12nm和22nm工藝上緊密合作,將MRAM納入工業級和車規級量產方案;Avalanche與聯電攜手合作推出22nm STT-MRAM,在工業級和航天級市場擁有深厚積澱。據LexisNexis資料統計,2004-2013年間,MRAM市場的專利申請量保持穩定,每年約有300至400項專利申請。需要注意的是,圖表末尾的下降並不代表興趣的下降,而是專利申請和公開之間的時間存在滯後。這些頭部廠商的集體行動,清晰印證著MRAM正從“備選技術”升級為“主流方案”,在汽車電子、邊緣AI、高端計算等領域的商業化落地進入爆發前夜。回看國內市場,本土半導體廠商同樣敏銳捕捉到了新型儲存技術的發展機遇,積極佈局相關領域。RRAM領域湧現出昕原半導體、銘芯啟睿、燕芯微等玩家;MRAM賽道,寒序科技、致真儲存、馳拓科技、凌存科技、亙存科技等紛紛嶄露頭角,為國內MRAM的發展奠定了產業基礎。相對於RRAM基於電子電荷遷移,是一種統計物理範疇下的阻變器件;MRAM的存取機理是基於自旋的確定性兩態翻轉,更加可控、精準,大規模製造下器件一致性、器件壽命極限都更有優勢與潛力。兩者均被台積電等半導體巨頭作為下一代面向AI的儲存技術重點押注。具體來看,本土MRAM廠商各有側重,多數主要集中於儲存、加密、嵌入式控制等傳統領域,例如:致真儲存專注於磁性隧道結(MTJ)的核心器件研發與製造工藝,掌握從材料研發到器件製造的全鏈路技術,擁有國內唯一的8英吋磁儲存晶片專用後道微納加工工藝中試線。近期與北京航空航天大學聯合攻關,研製出全球首顆8Mb容量自旋軌道力矩磁隨機儲存器晶片(SOT-MRAM),實現SOT-MRAM容量規模化突破。馳拓科技專注於MRAM儲存晶片的技術研發與生產製造,建有12英吋MRAM量產中試線,是國內首家實現MRAM量產的企業。近期成功突破垂直磁化體系技術瓶頸,儲存器件TMR關鍵指標比肩國際頭部代工廠量產的STT-MRAM。凌存科技專注於儲存模組開發,致力於將MRAM技術從核心器件層面推向終端應用,成功開發了世界首款高速、高密度、低功耗的儲存器MeRAM原型機及基於MeRAM的真隨機數發生器晶片,產品廣泛應用於車載電子、高性能運算、安全等領域。寒序科技則獨闢蹊徑,與多數國內MRAM企業不同,其以MRAM為核心介質建構計算晶片,將MRAM的物理優勢轉化為算力與頻寬優勢,開闢了“磁性計算”這一全新賽道,致力於從計算層面引領國內MRAM技術從利基低毛利領域向高端市場跨越,成為國內MRAM技術從儲存替代向計算革新跨越的關鍵力量,舉起大旗與國內磁學領域全面擁抱合作,力爭一同搶佔全球“磁計算”的戰略高地。綜合來看,從器件、裝置、製造到系統應用,國內產業鏈的前期佈局已具備支撐本土MRAM技術產業化與生態發展的基礎。尤其是寒序科技的差異化定位,進一步填補了國內MRAM從儲存到計算的關鍵空白,為後續誕生更多行業廠商提供了土壤和必然性。生態共建:國產MRAM的“磁計算”革命根據市場研究機構Precedence Research資料顯示,2024年全球MRAM市場規模估計為42.2億美元,預計從2025年的57.6億美元增長到2034年的約847.7億美元,復合年增長率高達34.99%。雖然前景廣闊,但MRAM的大規模爆發和商業化落地仍需產業合力,需要產業鏈上下游凝聚共識,共同建構生態。結合國際經驗和國內產業的發展現狀來看,更深度的產業合作與資源傾斜或許是推動MRAM技術發展的有力舉措。例如,國家有關部門可以給予MRAM技術更多重視,加大資金與政策支援,積極推動MRAM這一有希望在頻寬領域實現“變道超車”的關鍵技術。同時,借鑑台積電、三星、GlobalFoundries等頭部廠商對MRAM的關注與投入力度,國內代工廠或許也應加強對MRAM的工藝研發與資源投入,積極與國內廠商共同開展技術研發與工藝最佳化,爭取儘早打通“設計-製造-封測”的本土化鏈路,形成協同創新的合力,降低MRAM晶片的流片成本與量產門檻。還有一點不可忽視。輝達收購 Groq核心技術,計畫在Feynman架構中整合LPU單元的案例,充分證明了“通用算力+專用引擎”的協同優勢和行業趨勢。這一案例極具啟示價值。筆者認為,在未來提升AI推理效率的行業共識下,國內AI晶片廠商應抓住這一變革機遇,加強與在新型介質與架構上具備底層創新能力的團隊的合作力度,打造兼具通用算力與專用推理性能的新技術路徑,快速補強技術短板,建構差異化競爭力。產業界正釋放清晰訊號:以MRAM為代表的新型儲存,已成為後摩爾時代的核心焦點。地緣政治的戰略訴求、國際大廠的技術押注、國內產業鏈的長期積澱,再加上寒序科技的差異化突破,多重力量共振之下,MRAM正逐漸邁入產業化的“黃金時代”,有望成為中國AI晶片產業實現換道超車的關鍵抓手。五年後,誰將主導下一代推理晶片?當摩爾線程、沐曦、天數、壁仞等國產AI晶片公司接連叩響資本市場的大門,一個時代的答卷已然清晰。它們的密集上市,標誌著中國在基於傳統GPU架構的算力競賽中,完成了從無到有的突圍,進入了國產替代的收穫期。如果說上一代AI晶片的競爭是“算力競賽”,那麼下一代的分水嶺將是“誰能率先跨過頻寬牆”。在這個關鍵轉折點上,兩條路徑清晰呈現:一條是Groq選擇的極致SRAM片上整合路徑,用極高成本將頻寬推向極限,並因此獲得了行業霸主輝達以數百億美元估值的戰略整合;另一條,則是以MRAM為代表的新型儲存介質路線,為突破頻寬瓶頸提供了一種更具根本性,也更符合長期成本與供應鏈安全需求的方案。數年後,當AI推理進入“頻寬決勝”的新時代,晶片市場或許不再僅有算力的巨獸,主導市場的佼佼者還將屬於那些能夠率先在“頻寬戰爭”中沉澱出護城河的先行者。正如Groq在矽谷用SRAM驚豔了世界,行業演進的邏輯暗示:“中國版Groq”的出現也將不再是懸念。在這個征程中,中國半導體產業各方也都在積極擁抱AI,拓展產品品類,謀劃新的增長曲線。而寒序科技正依託MRAM磁性計算的新範式,給出“中國版”的實現路徑——並且,這條路,他們早在多年前,就已開始默默鋪設。 (半導體行業觀察)